【观天下事】OECD/G20 人工智能原则
B D A I L C
欢 迎 关 注
编者按
2019年5月22日OECD 以及伙伴国正式通过人工智能政策指引,这是政府间组织首次就人工智能发展和治理制定国际化准则,以确保人工智能设计的鲁棒性、安全、公平和可靠。6月9日闭幕的G20 贸易和数字部长会议发表了《关于贸易和数字经济的声明》,就人本主义的未来社会、数据自由流动、治理创新、数字经济的安全性等方面表达了共同立场,在声明附录一中采纳了OECD的人工智能原则。
Iris Grace
OECD/G20 人工智能原则
译 / 朱朱
1.1 包容性增长、可持续发展和福祉
利益相关方应积极促进对可信任AI的责任监管, 以追求有益于人类和地球的后果,提升人类的能力和创造性,增加对代表性不足群体的包容性,缩小经济、社会、性别和其他方面的不平等, 保护自然环境,以实现包容性增长、可持续发展与福祉。
1.2 以人为本的价值和公平
a)在AI的全生命周期,都应尊重法治、人权和民主价值。具体包括自由、尊严、自治、隐私和数据保护, 以及平等、多元、公平、社会正义和国际社会认可的劳工权利。
b)为此目的,AI行动者应当采取和场景相适应、符合先进技术的机制和防护措施,比如人类决策的能力。
1.3 透明和可解释性
AI 行动者应当致力于AI系统的透明性和负责任的披露。为此目的,他们应当提供和场景相适应,符合先进技术的有意义的信息,以
i.实现对AI系统的全面了解。
ii.让利益相关方意识到她是在和AI互动。
iii.赋能受AI系统影响者对结论的理解。
iv.赋能受AI系统不利影响者,使其得基于以平实易于理解的语言描述的AI参数信息以及预测、推荐、决策逻辑的信息挑战AI做出的结论。
1.4 鲁棒性、安全和可靠
a)AI 系统应当在全生命周期都具有鲁棒性、安全和可靠,因此在通常使用、可预见的使用和误用,甚至其他不利条件下,AI系统都应运作良好,不会带来不合理的安全风险。
b)为此目的, AI行动者应当保障AI全生命周期中数据集、处理和决策的可追溯性,以实现和场景相适应的、符合先进技术的对AI 决策的分析以及对询问的回应。
c)AI 行动者应当基于他们的角色、场景以及行动的能力,采取系统性的风险管理模式,对AI系统全生命周期的每个阶段的风险予以回应解决,包括隐私,数据安全,可靠性以及偏见问题。
1.5 可问责
AI 行动者应当基于他们的角色、场景和符合先进技术的方式对AI系统的良好运行负责,并尊重上述原则。
本文仅作学习交流之用
Jean-Marie Toulgouat
往期荐读
编辑:钟柳依
欢迎点击“阅读原文”